#Jim Keller
2024/07/30
•
幹掉HBM?
AI離不開HBM,這種看法正在不斷深入人心。 對於AI大模型訓練來說,大量平行資料處理要求大算力和高頻寬,算力決定了每秒處理資料的速度越快,而頻寬決定了每秒可訪問的資料,GPU負責提供算力,而儲存器負責提供頻寬。 如今的局面是,大家可以不用輝達的GPU,但絕對離不開海力士、三星或美光的HBM,輝達雖然有CUDA這條護城河,但也不能完全阻止使用者遷移向其他廠商,但HBM就不同了,不論是AMD還是英特爾,還是其他定製晶片,上面無一例外都嵌著密密麻麻的HBM。 但HBM並不是普通DRAM,它的價格早已到了一個令人咋舌的地步,在相同密度的情況下,HBM 的價格大約是DDR5的5倍,據瞭解,目前HBM成本在AI伺服器成本中佔比排名第三,約佔9%,單機平均售價高達18000美元。